查詢處理以及分詞技術 隨著搜索經濟的崛起,人們開始越加關注全球各大搜索引擎的性能、技術和日流量。作為企業,會根據搜索引擎的知名度以及日流量來選擇是否要投放廣告等; 但是,如何設計一個高效的搜索引擎?我們可以以百度所采取的技術手段來探討如何設計一個實用的搜索引擎。搜索引擎涉及到許多技術點,比如查詢處理,排序算 法,頁面抓取算法,CACHE機制,ANTI-SPAM等等。這些技術細節,作為商業公司的搜索引擎服務提供商比如百度,GOOGLE等是不會公之于眾 的。我們可以將現有的搜索引擎看作一個黑盒,通過向黑盒提交輸入,判斷黑盒返回的輸出大致判斷黑盒里面不為人知的技術細節。 查詢處理與分詞是一個中文搜索引擎必不可少的工作,而百度作為一個典型的中文搜索引擎一直強調其“中文處理”方面具有其它搜索引擎所不具有的關鍵技術和優勢。那么我們就來看看百度到底采用了哪些所謂的核心技術。 我們分兩個部分來講述:查詢處理/中文分詞。 一、查詢處理 用戶向搜索引擎提交查詢,搜索引擎一般在接受到用戶查詢后要做一些處理,然后在索引數據庫里面提取相關的信息。那么百度在接受到用戶查詢后做了些什么工作呢? 1、假設用戶提交了不只一個查詢串,比如“信息檢索 理論 工具”。 2、假設提交的查詢有重復的內容,搜索引擎怎么處理呢?比如查詢“理論 工具理論”,百度是將重復的字符串當作只出現過一次,也就是處理成等價的“理論工具”,而GOOGLE顯然是沒有進行歸并,而是將重復查詢子串的權重增大 進行處理。那么是如何得出這個結論的呢?我們可以將“理論工具”提交給百度,返回341,000篇文檔,大致看看第一頁的返回內容。 OK。繼續,我們提交查詢“理論 工具理論”,在看看返回結果,仍然是那么多返回文檔,當然這個不能說明太多問題,那看看第一頁返回結果的排序,看出來了嗎?順序完全沒有變化,而 GOOGLE 則排序有些變動,這說明百度是將重復的查詢歸并成一個處理的,而且字符串之間的先后出現順序基本不予考慮(GOOGLE是考慮了這個順序關系的)。 3、假設提交的中文查詢包含英文單詞,搜索引擎是怎么處理的?比如查詢”電影BT下載”,百度的方法是將中文字符串中的英文當作一個整體保留,并以此為斷 點將中文切分開,這樣上述的查詢就切為<電影,BT,下載>,不論中間的英文是否一個字典里能查到的單詞也好,還是隨機的字符也好,都會當作 一個整體來對待。至于為什么,你用查詢“電影dfdfdf下載”看看結果就知道了。當然如果查詢中包含數字,也是如此辦理。 到目前為止,一切很簡單,也很清楚,百度怎么處理用戶查詢的呢?歸納如下:首先根據分割符號將查詢分開,然后看看是否有重復的字符串,如果有,就拋棄多余的,只保留一個,接著判斷是否有英文或者數字,如果有的話,把英文或者數字當作一個整體保留并把前后的中文切開。 下文是百度對用戶查詢關鍵詞分詞做了一個實踐分析,百度這個搜索引擎對關鍵詞如何切分呢?下面是中科院軟件所張俊林一篇百度分詞算法,轉載一個SEOer的整理部分,希望更多seoer有幫助。 二、中文分詞 首先,講講百度的分詞時機或者條件問題,是否是個中文字符串百度就拿來切一下呢?非也,要想被百度的分詞程序榮幸的切割一下也是要講條件的,哪能是個字符串就切割啊?你當百度是賣鋸條的么? 那么什么樣的字符串才滿足被切割的條件呢?簡單說來,如果字符串只包含小于等于3個中文字符的話,那就保留不動,當字符串長度大于4個中文字符的時候,百度的分詞程序才出馬大干快上,把這個字符串肢解掉。 怎么證明呢?我們向百度提交“電影下載”,看看返回結果中標為紅字的地方,不難看出來,查詢已經被切割成<電影,下載>兩個單詞了,說明分詞 程序已經開工了,如果是比4個中文字符更長的字符串,那分詞程序就更不客氣了,一定大卸八塊而后快。我們來看看三個字符的情況,提交查詢“當然擇”,看起 來這個查詢不倫不類,那是因為我希望看到這個字符串被切分為<當然,擇>,返回結果365篇相關頁面,翻到最后一頁,發現標紅的關鍵字都是” 當然擇”連續出現的情況,好像沒有切分,但是還不確定,那么再提交人工分好的查詢“當然擇”看看,返回結果1,090,000篇,基本上可以確定沒有進行 分詞了,當然另外一種解釋是:對于三個字符先切分,然后將切分后的結果當作一個短語查詢,這樣看到的效果和沒有切分是相似的。 但是我傾向于判斷百度對于少于3個字符的串沒有切分,奧卡姆不是說了么“如無必要,勿增實體”,干嗎做無用功呢。那么如果沒有切分,會有一個隨之而來的問 題,怎么從索引庫里面提取未切分的字符串呢?這牽扯到索引的問題,我覺得百度應該采取了兩套索引機制,一種是按照單詞索引,一種是按照N-GRAM索引, 至于索引的具體問題,以后在詳細論述。 下面我們看看百度是采取的何種分詞算法,現在分詞算法已經算是比較成熟了,有簡單的有復雜的,比如正向最大匹配,反向最大匹配,雙向最大匹配,語言模型方 法,最短路徑算法等等,有興趣的可以用GOOGLE去搜索一下以增加理解。這里就不展開說了。但是要記住一點的是:判斷一個分詞系統好不好,關鍵看兩點, 一個是消除歧義能力;一個是詞典未登錄詞的識別比如人名,地名,機構名等。 那么百度用的是什么方法?我的判斷是用雙向最大匹配算法。至于怎么推理得出的,讓我們一步步來看。當然,這里首先有個假設,百度不會采取比較復雜的算法,因為考慮到速度問題。 我們提交一個查詢“毛澤東北京華煙云”,又一個不知所云的查詢,盡管不知所云但是自有它的道理,我想看看百度的分詞是如何消歧以及是否有詞典未登錄詞的識別的功能,如果是正向最大匹配算法的話, 繼續測驗,提交查詢“古巴比倫理”,如果是正向最大匹配,那么結果應該是<古巴比倫,理>,如果是反向最大匹配,那么結果應該是 <古巴,比,倫理>,事實上百度的分詞結果是<古巴比倫,理>,從這個例子看,好像用了正向最大匹配算法; 但是仍然遺留的問題是:如果正向反向分詞不一致,而且最短路徑也相同,那怎么辦?輸出正向的還是反向的結果? 當然還可以繼續追問:如果切分后單字也一樣多,那怎么辦?最后看一個例子,查詢“王強大小:”,百度將其切分為“王/強大/小”,是正向切分的結果,如果是反向的會被切分為“王/強/大小”,這說明有歧義而且單字也相同則選擇正向切分結果。 OK,看到這里可能頭已經有些暈了,最后總結一下百度的分詞算法,當然里面還是有猜測的成分,算法如下: 首先查詢專用詞典(人名,部分地名等),將專有名稱切出,剩下的部分采取雙向分詞策略,如果兩者切分結果相同,說明沒有歧義,直接輸出分詞結果。如果不一 致,則輸出最短路徑的那個結果,如果長度相同,則選擇單字詞少的那一組切分結果。如果單字也相同,則選擇正向分詞結果。 百度一直宣傳自己在中文處理方面的優勢,從上面看,分詞算法并無特殊之處,消歧效果并不理想,即使百度采取比上述分詞算法復雜些的算法也難以說成是優勢, 如果說百度有優勢的話,唯一的優勢就是那個很大的專用詞典,這個專用詞典登錄了人名(比如大長今),稱謂(比如老太太),部分地名(比如阿聯酋等),估計 百度采用學術界公布的比較新的命名實體識別算法從語料庫里面不斷識別出詞典未登錄詞,逐漸擴充這個專門詞典。如果這就是優勢的話,那么這個優勢能夠保持多 久就是個很明顯的問題。 |